Inteligência Artificial — Texto 41 B – Poder Artificial: Relatório sobre o Panorama de 2025. Capítulo 1 – Os Falsos Deuses da IA (4/4) – Reformulação da regulamentação como obstáculo à inovação. Por Kate Brennan, Amba Kak, e Dr. Sarah Myers West

Nota de editor:

Devido à grande extensão deste texto – Poder Artificial: Relatório sobre o Panorama de 2025 – o mesmo é publicado em 5 partes – A (Sumário Executivo), B (capítulo 1, por sua vez repartido em 4 partes), C (capítulo 2), D (capítulo 3) e E (Capítulo 4).

Hoje publicamos a quarta parte do Capítulo 1, 


Seleção e tradução de Júlio Marques Mota

7  min  de leitura

Texto 41 B – Poder Artificial: Relatório sobre o Panorama de 2025. Capítulo 1 – Os Falsos Deuses da IA (4/4) – Reformulação da regulamentação como obstáculo à inovação

Por Kate Brennan, Amba Kak, e Dr. Sarah Myers West

Publicado por em 2 de Junho de 2025 (original aqui)

 

 

Índice

Sumário Executivo

Capítulo 1: Os Falsos Deuses da IA

1.1 A mitologia da IAG: o argumento para terminar com todos os argumentos

1.2 Demasiado grande para falir: infraestrutura e intensificação do capital

1.3 Corrida armamentista da IA 2.0: da desregulamentação à política industrial

1.4 Reformulação da regulamentação como obstáculo à inovação

Capítulo 2: Sai cara, ganho eu, sai coroa perde você. Como as empresas de tecnologia manipularam o mercado de IA

Capítulo 3: Consultando o registo. A IA falha sistematicamente ao público

Capítulo 4: Um roteiro para a ação. Fazer da IA uma luta de poder, não do progresso.

 

—-

1.4 Reformulação da regulamentação como obstáculo à inovação

Tem ocorrido um ataque narrativo rápido e agressivo contra a regulamentação da IA, retratando-a como anti inovação, uma burocracia supérflua e um atrito desnecessário. Observámos uma reversão total na posição do governo federal dos EUA e, cada vez mais, um esfriamento regulatório que se repercute em setores da União Europeia. Já vimos sinais no final do mandato de Biden de que o principal papel do governo seria o de facilitador da indústria de IA [1], e com a administração Trump, essa tornou-se a mensagem principal. Os ventos contrários à responsabilização mínima do setor de tecnologia em geral — e das empresas de IA em particular — são mais fortes do que nunca.

As promessas políticas inconstantes da indústria de tecnologia também revelaram a sua verdadeira face. As empresas passaram o ano de 2023 insistindo que estavam extremamente preocupadas com a segurança e eram firmemente “a favor da regulamentação” [2]. Mas, à medida que o centro de poder passou a  inclinar-se para uma corrente que defende a desregulação, qualquer consenso superficial sobre limites de segurança rapidamente se desfez. O CEO da OpenAI, Sam Altman, por exemplo, em apenas quinze meses, passou de um testemunho numa audiência no Congresso de que a regulação é “essencial” para passar a fazer lóbi contra uma modesta cláusula de segurança.

A mudança na narrativa do governo foi igualmente rápida. Em 2023, preocupações existenciais voltadas para o futuro (conhecidas como “riscos existenciais” ou “x-risk”) ganharam o centro do debate. Nas disputas políticas, essas preocupações com a segurança frente a riscos existenciais frequentemente ofuscaram a longa lista de danos materiais decorrentes do controle empresarial da IA, desviando, muitas vezes, a atenção pública e dos decisores seja da adoção de novas políticas seja da aplicação das leis existentes visando as empresas responsáveis [3]. Notavelmente, o discurso da vice-presidente Kamala Harris, à margem da Cimeira de Segurança em IA no Reino Unido, apontou explicitamente essa tensão, estabelecendo um contraponto (implícito) à agenda dominada por riscos existenciais promovida pelo então primeiro-ministro Rishi Sunak:

“Estas ameaças [existenciais], sem dúvida, são profundas e exigem uma ação global. Mas sejamos claros. Existem outras ameaças que também exigem a nossa ação — ameaças que já estão a causar danos e que, para muitas pessoas, também parecem existenciais” [4]. Harris prosseguiu descrevendo as formas pelas quais pessoas comuns já foram prejudicadas por sistemas de IA defeituosos, discriminatórios e imprecisos.

Ao contrário de outras discussões regulatórias, o amplo interesse filantrópico e governamental em lidar com preocupações de segurança relacionadas com riscos existenciais (x-risk) acabou por servir para consolidar ainda mais os laços do governo com a indústria de tecnologia. A grande maioria dos esforços no âmbito da segurança tem sido voluntária e liderada pela própria indústria — por exemplo, diversos padrões de validação de segurança nos Institutos de Segurança em IA do Reino Unido e dos EUA foram definidos ou realizados em colaboração com empresas do setor, como a Scale AI [5] e a Anthropic [6] — revelando que o governo foi convencido com sucesso a regulamentar a IA em sintonia e sob liderança da competência centrada na própria indústria. Por outro lado, quando chegou a hora de colocar isso em prática com o projeto de lei SB 1047 — a proposta da Califórnia que procura impor exigências básicas de documentação e revisão às maiores empresas de IA, para uma classe bastante restrita de modelos avançados — grandes partes da indústria tecnológica retiraram o seu apoio e opuseram-se fortemente, mesmo a essa intervenção regulatória limitada [7]. Até mesmo a Anthropic — que se posiciona como uma empresa sensível à segurança e aos riscos da IA — hesitou em apoiar a SB 1047, inicialmente opondo-se ao projeto antes de emitir uma declaração ambígua de apoio, afirmando que os “benefícios provavelmente superam os custos”, mas que “não temos certeza disso” [8]. Os agentes governamentais acompanharam essa posição, com legisladores democratas influentes [9] a caracterizarem o projeto como prejudicial à inovação [10]. Numa carta ao governador Newsom, oito membros democratas do Congresso resumiram essa visão de forma direta: “Em resumo, estamos muito preocupados com o efeito que esta legislação pode ter sobre a economia de inovação da Califórnia” [11]. Diante de enorme pressão, o governador Newsom acabou por vetar o projeto de lei.

A luta pelo SB 1047 abriu as comportas para o embate entre regulação e inovação. Um golpe duplo recente mudou completamente o cenário: grupos que defendem legislações semelhantes às disposições do SB 1047 estão a ser politicamente atacados por republicanos [12], e um novo e preocupante projeto de lei, o SB 813 [13], está a ganhar apoio na Califórnia. Esse projeto permite que empresas de IA auto-certifiquem os seus modelos como seguros e, em seguida, utilizarem essa certificação como escudo legal para evitar responsabilidade em ações civis por danos [14].

A nível federal, houve pouquíssimo progresso legislativo, deixando amplas áreas de uso da indústria completamente fora dos limites regulatórios. A agora revogada Ordem Executiva 15 de Biden [15] e o memorando OMB [16] foram pontos positivos, avançando significativamente ao estabelecer mecanismos para responsabilização prática, por meio do direcionamento ao uso e aquisição de IA pelo governo. Mesmo propostas de investimento público, como o projeto-piloto da National AI Research Resource (Recurso Nacional de Pesquisa em IA), originalmente concebidas como uma força de equilíbrio contra o poder e os recursos concentrados na indústria de IA, foram reformuladas sob o Memorando de Segurança Nacional de 2024 de Biden como um projeto de competitividade nacional. O ex-Assessor de Segurança Nacional Jake Sullivan também reforçou essa posição no seu discurso de outubro de 2024 na Universidade Nacional de Defesa, ao apresentar o governo dos EUA como um facilitador das empresas de IA de ponta e de realçar a necessidade de investimentos americanos no setor de IA seguirem a todo o vapor, a fim de fortalecer a posição estratégica do país contra a China [17].

Ainda assim, apesar de uma postura política longe de ser coerente em relação à IA sob o governo Biden, não se pode subestimar o ataque à regulamentação iniciado pela administração Trump [18]. Desde que foi eleito, o presidente Trump posicionou a regulamentação como uma maneira clara dos EUA “perderem” a corrida armamentista global, e os seus aliados propagaram o medo de um controle chinês sobre a infraestrutura global de IA como uma ameaça à segurança e à democracia americanas. No seu primeiro dia no cargo, Trump desmantelou a Ordem Executiva de Biden sobre a IA, substituindo-a pela sua própria Ordem Executiva, destinada a revogar políticas federais existentes sobre IA que “atuem como barreiras à inovação americana em IA” [19]. Numa série de eventos de alto perfil — nomeadamente Davos, a Cimeira de Ação em IA em França e a Conferência de Segurança de Munique — a mensagem da administração Trump foi dita em tom bem alto  e claro: a regulamentação global é um ataque económico direcionado às empresas americanas e representa o oposto da inovação. Enquanto isso, o governo atacou expressamente o Estado administrativo, colocando em dúvida o status independente das agências de fiscalização e desmantelando a força de trabalho federal, incluindo funcionários-chave responsáveis por aplicar as leis existentes para conter o domínio corporativo (isso incluiu a demissão ilegal de importantes comissários democratas da FTC com histórico de atuação na regulamentação do setor tecnológico). Os memorandos recentes do Gabinete de Gestão e Orçamento (OMB, na sigla em inglês) da administração Trump fazem pouco para impor responsabilidade aos sistemas de IA, sendo, na verdade, projetados para acelerar a aquisição de IA em todo o governo federal [20].

Entretanto, a política industrial de IA — ou seja, o apoio financeiro e regulatório para expandir a indústria nacional de inteligência artificial — está  a ser  posicionada como um contraponto à regulação e um papel mais apropriado para a intervenção governamental. Sem surpresa, os executivos do setor de tecnologia e IA do Vale do Silício rapidamente se alinharam [21], garantindo [22] os seus lugares [23] à mesa. Porque, embora as ações concretas de Trump em relação à política industrial de IA ainda estejam por vir, os dominós colocados em movimento pela administração Biden estão prontos para acelerar rapidamente sob Trump.

A agenda de Trump para a dominação global em IA é reforçada mutuamente por uma ampla agenda de dominação energética, e a sua administração tem destacado repetidamente a necessidade de expandir os recursos [24] energéticos dos EUA para manter a competitividade em IA [25]. Os debates sobre os requisitos de licenciamento para a construção de infraestruturas já haviam ocupado o centro das atenções durante o governo Biden. O Ato de Reforma de Licenciamento de Energia de 2024, do senador Joe Manchin, que acelera os procedimentos de revisão para projetos de energia e mineração, avançou na comissão com uma votação bipartidária [26]. O projeto conta com o apoio de uma coligação de empresas de combustíveis fósseis e lobistas do setor de tecnologia, que afirmam que a inovação tecnológica em IA está ligada à expansão energética. Como escreveram numa carta ao Congresso: “A liderança dos EUA em inovação global depende da aprovação de reformas de licenciamento que permitam ao país construir infraestrutura energética crítica.” [27].

De certa forma, a postura pró-aplicação da lei da administração Trump em relação às grandes empresas de tecnologia — evidenciada na continuidade do processo do Departamento de Justiça (DOJ) contra o Google e no recente julgamento da Comissão Federal de Comércio (FTC) contra a Meta — é coerente com as políticas antitrust da administração Biden, e contrasta com os ventos predominantes de desregulamentação e a abordagem de não interferência na indústria de tecnologia. Ao mesmo tempo, esses casos não têm como objetivo atacar a raiz do poder da indústria de inteligência artificial, a qual recebeu uma mensagem de “luz verde total” da Casa Branca de Trump, mas sobretudo têm o objetivo de limitar a censura às grandes tecnológicas e de enfraquecer a autoridade das plataformas frente ao poder do Estado. Já vemos empresas de tecnologia tentando exercer influência política para encerrar os processos [28]. E o Google está prestes a argumentar que a separação estrutural prejudicaria questões de segurança nacional dos EUA, o que pode acabar por atrapalhar soluções antitrust mais ousadas por parte do sistema judicial [29]. Apesar destes casos, é improvável que o Departamento de Justiça (DOJ) e a Comissão Federal de Comércio (FTC) sob Trump estejam dispostos a enfraquecer amplamente o poder de mercado da indústria de IA como uma questão de política, independentemente de como os processos antitrust sejam decididos. [30]

A tendência à desregulamentação já começou até mesmo na União Europeia, tradicionalmente vista como uma defensora ferrenha da regulação. Impulsionada por deslocamentos eleitorais à direita, pela crescente securitização da inteligência artificial e pelas novas realidades geopolíticas provocadas por Trump, a agenda de regulação digital — antes orgulhosamente proclamada — passou a ser vista como um entrave pelos formuladores de políticas europeus. Além de arquivar projetos de lei planeados, como a Diretiva de Responsabilidade por IA [31], que criava um marco de responsabilidade civil para produtos baseados em IA, há um apetite nos altos escalões da formulação de políticas da UE para retroceder em regras já acordadas. Embora esse retrocesso seja limitado pela aparência constrangedora de ceder à pressão dos EUA — pelo menos até agora —, no que diz respeito à implementação, há uma pressão crescente para criar o máximo de flexibilidade possível, de modo a suavizar o impacto das leis sem alterar a sua letra. [32] Essa tentativa de criar flexibilidade para empresas europeias é dificultada pela importância dessas regras como uma rara fonte de influência na nascente guerra comercial entre a UE e os EUA [33]. Está por ver até que ponto a regulação digital europeia se tornará um peão neste debate.

De forma mais geral, o tom na União Europeia e nos Estados-membros tornou-se mais favorável, acompanhando os desenvolvimentos em outras partes do mundo. A frase de efeito do presidente francês Emmanuel Macron — “plug, baby, plug” — durante a Cimeira de Ação em Paris cristalizou essa mudança de sentimento [34]. O uso das ferramentas da diplomacia estatal e das infraestruturas já existentes (como a abundante energia nuclear na França) para promover o desenvolvimento da IA está a tornar-se cada vez mais central no esforço mais amplo em direção à soberania europeia. Além dos novos investimentos públicos em infraestruturas de IA, novas coligações políticas e novos agentes de poder também estão a surgir nos bastidores para facilitar essa mudança. Um exemplo desses ventos de mudança é uma recente parceria público-privada de grande porte, com um compromisso de investimento de €150 mil milhões por um coletivo de gigantes industriais e empresas de tecnologia líderes da Europa, complementado pelo acesso direto aos chefes de Estado europeus para discutir um “arcabouço regulatório drasticamente simplificado para a IA”, é um exemplo desses ventos de mudança.[35]

Ausente desta discussão está o papel que a regulação pode desempenhar na promoção da inovação dentro dos mercados, especialmente considerando o dinamismo e a complexidade que a inteligência artificial apresenta. Ao criar um ambiente regulatório estável, com concorrência robusta entre as empresas e um campo de atuação equilibrado que permita a entrada e o crescimento de novos participantes, uma regulação bem elaborada pode atuar como facilitadora — e não como adversária — da inovação em mercados emergentes (ver Capítulo 4 – Um roteiro para a ação).

 


Notas

  1. Jake Sullivan, “Remarks by APNSA Jake Sullivan on AI and National Security,” (speech, National Defense University, Washington, D.C., 24 de outubro de 2024  https://bidenwhitehouse.archives.gov/briefing-room/speeches-remarks/2024/10/24/remarks-by-apnsa-jake-sullivan-on-ai-and-national-securityBack
  1. Written Testimony of Sam Altman, Before the U.S. Senate Committee on the Judiciary Subcommittee on Privacy, Technology, & the Law(2023) (Sam Altman, Chief Executive Officer, OpenAI). Back
  2. Laurie Clarke, “How Silicon Valley Doomers are Shaping Rishi Sunak’s AI Plans,” Politico, 14 de setembro de 2023 https://www.politico.eu/article/rishi-sunak-artificial-intelligence-pivot-safety-summit-united-kingdom-silicon-valley-effective-altruismBack
  3. Kamala Harris, “Remarks by Vice President Harris on the Future of Artificial Intelligence” (speech, London, United Kingdom, 1 de novembro de 2023 https://bidenwhitehouse.archives.gov/briefing-room/speeches-remarks/2023/11/01/remarks-by-vice-president-harris-on-the-future-of-artificial-intelligence-london-united-kingdomBack
  4. The Scale Team, “Scale AI Partnering with the U.S. AI Safety Institute to Evaluate AI Models,” Scale, 10 de fevereiro de 2025 https://scale.com/blog/first-independent-model-evaluator-for-the-USAISIBack
  5. NIST, “U.S. AI Safety Institute Signs Agreements Regarding AI Safety Research, Testing and Evaluation with Anthropic and OpenAI,” 29 de Agosto de 2024 https://www.nist.gov/news-events/news/2024/08/us-ai-safety-institute-signs-agreements-regarding-ai-safety-researchBack
  6. Wes Davis, “OpenAI Exec Says California’s AI Safety Bill Might Slow Progress” The Verge, 21 de Agosto de 2025 https://www.theverge.com/2024/8/21/24225648/openai-letter-california-ai-safety-bill-sb-1047Back
  7. Dario Amodei to Gavin Newsom, 21 de agosto de 2024 https://cdn.sanity.io/files/4zrzovbb/website/6a3b14a98a781a6b69b9a3c5b65da26a44ecddc6.pdfBack
  8. Rachael Myrow, “Pelosi Blasts California AI Bill Heading to Newsom’s Desk as ‘Ill-Informed’” KQED, 29 de Agosto de 2024 https://www.kqed.org/news/12002254/california-bill-to-regulate-catastrophic-effects-of-ai-heads-to-newsoms-deskBack
  9. Zoe Lofgren et al. to Gavin Newsom, 15 de agosto de 2024 https://democrats-science.house.gov/imo/media/doc/2024-08-15%20to%20Gov%20Newsom_SB1047.pdfBack
  10. Lofgren et al. to Newsom. Back
  11. U.S. Senate Committee on Commerce, Science, & Transportation, “Sen. Cruz Investigates AI Nonprofit for Potential Misuse of Taxpayer Funds,” 7 de abril de 2025 https://www.commerce.senate.gov/2025/4/sen-cruz-investigates-ai-nonprofit-for-potential-misuse-of-taxpayer-fundsBack
  12. Cal. S.B. 813. Reg. Sess. 2025-2026, amended in Senate, 26 de março de 2025 https://leginfo.legislature.ca.gov/faces/billNavClient.xhtml?bill_id=202520260SB813Back
  13. Chase Difeliciantonio, Tyler Katzenberger, and Christine Mui, “Voluntary AI Rules are Getting Critics to Yes,” Politico, 21 de abril de 2025 https://www.politico.com/newsletters/politico-technology-california-decoded-preview/2025/04/21/voluntary-ai-rules-are-getting-critics-to-yes-00300551Back
  14. “Executive Order 14110 of October 30, 2023, Safe, Secure, and Trustworthy Development and Use of Artificial Intelligence,” Code of Federal Regulations, title 88 (2023): 75191-75226, https://www.federalregister.gov/documents/2023/11/01/2023-24283/safe-secure-and-trustworthy-development-and-use-of-artificial-intelligenceBack
  15. White House, “Memorandum on Advancing the United States’ Leadership in Artificial Intelligence; Harnessing Artificial Intelligence to Fulfill National Security Objectives; and Fostering the Safety, Security, and Trustworthiness of Artificial Intelligence,” 24 de outubro de 2025 https://bidenwhitehouse.archives.gov/briefing-room/presidential-actions/2024/10/24/memorandum-on-advancing-the-united-states-leadership-in-artificial-intelligence-harnessing-artificial-intelligence-to-fulfill-national-security-objectives-and-fostering-the-safety-securityBack
  16. Jake Sullivan, “Remarks by APNSA Jake Sullivan on AI and National Security” (speech, National Defense University, Washington, D.C., 24 de outubro de 2024  Back
  17. Coral Davenport, “Inside Trump’s Plan to Halt Hundreds of Regulations,” New York Times, 16 de abril de 2025 https://www.nytimes.com/2025/04/15/us/politics/trump-doge-regulations.htmlBack
  18. White House, “Removing Barriers to American Leadership in Artificial Intelligence,” 23 de Janeiro de 2025 https://www.whitehouse.gov/presidential-actions/2025/01/removing-barriers-to-american-leadership-in-artificial-intelligenceBack
  19. Ver Madison Alder, “Trump White House Releases Guidance for AI Use, Acquisition in Government,” FedScoop, 4 de abril de 2025 https://fedscoop.com/trump-white-house-ai-use-acquisition-guidance-government; e Ellen P. Goodman, “Accelerating AI in the US Government, Evaluating the Trump OMB Memo,” Tech Policy Press, 24 de abril de 2025 https://www.techpolicy.press/accelerating-ai-in-the-us-government-evaluating-the-trump-omb-memoBack
  20. Elon Musk (@elonmusk), “America is a Nation of Builders Soon, You Will Be Free to Build,” X, 5 de novembro de 2024 https://x.com/elonmusk/status/1854023551575322959Back
  21. Shaun Maguire (@shaunmmaguire), “It’s Time to Build [American Flag Emoji] Renaissance”, X, 6 de novembro de 2024 https://x.com/shaunmmaguire/status/1854049676544340174Back
  22. Marc Andreessen (@pmarca), “Fuck Yes. The Romance of Production is Back.” X, 7 de novembro de 2024 https://x.com/pmarca/status/1854476136560132300Back
  23. White House, “Declaring a National Energy Emergency,” 20 de Janeiro de 2025 https://www.whitehouse.gov/presidential-actions/2025/01/declaring-a-national-energy-emergencyBack
  24. Spencer Kimball, “Trump Says He Will Approve Power Plants for AI Through Emerg +claration,” NBC Philadelphia, 23 de Janeiro de 2025 https://www.nbcphiladelphia.com/news/business/money-report/trump-says-he-will-approve-power-plants-for-ai-through-emergency-declaration/4086845Back
  25. Energy Permitting Reform Act of 2024, S.4753, 118th Cong. (2024), https://www.congress.gov/bill/118th-congress/senate-bill/4753Back
  26. Americans for Responsible Innovation (ARI) et al. to Charles Schumer, Mitch McConnell, Mike Johnson, and Hakeem Jeffries, 12 de novembro de 2024, https://responsibleinnovation.org/wp-content/uploads/2024/11/Coalition-Letter-Tech-Leaders-Support-Manchin-Barrasso.pdfBack
  27. Dana Mattioli, Rebecca Balhaus, Josh Dawsey, “Inside Mark Zuckerberg’s Failed Negotiations to End Antitrust Case,” Wall Street Journal, 15 de abril de 2025 https://www.wsj.com/us-news/law/mark-zuckerberg-meta-antitrust-ftc-negotiations-a53b3382; Brendan Bordelon e Gabby Miller, “‘Just Chaos’: How Trump’s White House Could Swing the War on Big Tech,” Politico, 20 de abril de , 2025 https://www.politico.com/news/2025/04/20/google-antitrust-trial-trump-00299586Back
  28. Brendan Bordelon and Gabby Miller, “It’s Breakup Season for Tech in Washington,” Politico PRO Morning Tech, 18 de abril de 2025 https://subscriber.politicopro.com/newsletter/2025/04/its-breakup-sason-for-tech-in-washington-00298120Back
  29. For example, the previous FTC administration investigated the relationship between cloud service providers and AI developers. Federal Trade Commission, Partnerships Between Cloud Service Providers and AI Developers, by Office of Technology Staff (2025), https://web.archive.org/web/20250118211330/https://www.ftc.gov/system/files/ftc_gov/pdf/p246201_aipartnerships6breport_redacted_0.pdfBack
  30. Caitlin Andrews, “European Commission Withdraws AI Liability Directive From Consideration,” IAPP, 12 de fevereiro de 2025 https://iapp.org/news/a/european-commission-withdraws-ai-liability-directive-from-considerationBack
  31. Daniel Mügge and Leevi Saari, “The EU AI Policy Pivot: Adaptation or Capitulation?” Tech Policy Press,25 de fevereiro de 2025 https://www.techpolicy.press/the-eu-ai-policy-pivot-adaptation-or-capitulationBack
  32. Jacob Parry, Camille Gus, and Francesca Micheletti, “EU Set to Fine Apple and Meta Amid Escalating Trade War,” Politico, 31 de março de 2025 https://www.politico.eu/article/eu-set-fine-apple-meta-amid-escalating-trade-warBack
  33. Clea Caulcutt, “‘Plug, Baby, Plug’: Macron Pushes for French Nuclear-Powered AI,” Politico,10 de fevereiro de 2025 https://www.politico.eu/article/emmanuel-macron-answer-donald-trump-fossil-fuel-drive-artificial-intelligence-ai-action-summitBack
  34. Anna Desmarais, “Here’s What Has Been Announced at the AI Action Summit,” Euronews, 2 de fevereiro de 2025 https://www.euronews.com/next/2025/02/11/heres-what-has-been-announced-at-the-ai-action-summitBack

 


As autoras:

Kate Brennan é diretora associada do AI Now Institute. Tem um J. D. da Faculdade de direito de Yale e um duplo B. A. da Universidade Brown em cultura moderna e Media e Estudos de género e sexualidade. Como Diretora Associada do AI Now, Kate, lidera programas de política e pesquisa para moldar a indústria de IA no interesse público. Tem uma década de experiência na indústria de tecnologia para a AI Now, trabalhando em várias funções tanto no marketing de produtos quanto na política. Antes de ingressar na AI Now, Kate ocupou vários cargos na indústria de tecnologia. Como comerciante de produtos na Jigsaw do Google, Kate supervisionou lançamentos de produtos e iniciativas de pesquisa que enfrentavam desinformação, censura e assédio online. Anteriormente, Kate construiu e gerenciou um programa nacional para apoiar as mulheres na indústria de jogos, lançando jogos por criadores de jogos sub-representados e comissionando pesquisas de ponta sobre a dinâmica de gênero na indústria de jogos. Ela começou sua carreira administrando marketing digital para organizações sem fins lucrativos e sindicatos politicamente progressistas. Na Faculdade de direito, Kate atuou como editora-chefe do Yale Journal of Law and Feminism e foi membro da Technology Accountability Clinic, um projeto da Clínica de liberdade de mídia e acesso à informação da Yale Law School que enfrenta o poder excessivo na indústria de tecnologia. Como membro da clínica, trabalhou em questões como a vigilância biométrica nas prisões e o acesso à informação sobre o aborto online. Como estagiária jurídica do Neighborhood Legal Services of Los Angeles County, representou trabalhadores de baixa renda em Los Angeles em audiências administrativas para recuperar benefícios e aconselhou trabalhadores sobre roubo salarial, desemprego e reivindicações de retaliação.

 Amba Kak,é co-diretora executiva do AI Now Institute. Formada como advogada, é licenciada em BA LLB (Hons) pela Universidade Nacional de Ciências Jurídicas da Índia e é ex-beneficiária da Google Policy Fellowship e da Mozilla Policy Fellowship. Ela tem um Mestrado em Direito (BCL) e um Mestrado em Ciências Sociais da Internet na Universidade de Oxford, que frequentou como Rhodes Scholar. passou os últimos quinze anos projetando e defendendo políticas tecnológicas de interesse público, que vão desde a neutralidade da rede até à privacidade e à responsabilidade algorítmica, em todo o governo, indústria e sociedade civil – e em muitas partes do mundo. completou recentemente seu mandato como Consultora Sênior em IA na Federal Trade Commission. Antes da AI Now, ela foi Consultora de políticas globais na Mozilla; e também atuou anteriormente como consultora Jurídica do regulador de telecomunicações da Índia (TRAI) sobre regras de neutralidade da rede. Aconselha regularmente membros do Congresso, da Casa Branca, da Comissão Europeia, do governo do Reino Unido, da cidade de Nova Iorque, dos EUA e de outras agências reguladoras em todo o mundo; é amplamente publicada em locais académicos e populares e seu trabalho foi apresentado no The Atlantic, The Financial Times, MIT Tech Review, Nature, The Washington Post e The Wall Street Journal, entre outros. Amba atualmente faz parte do Conselho de Administração da Signal Foundation e do Comitê de IA do Conselho da Mozilla Foundation, e é afiliada como pesquisadora sênior visitante no Instituto de segurança cibernética e Privacidade da Northeastern University.

Dr. Sarah Myers West, é doutora e mestra pela Universidade do Sul da Califórnia. É co-diretora executiva do AI Now Institute. Passou os últimos quinze anos a interrogar o papel das empresas de tecnologia e a sua emergência como poderosos actores políticos nas linhas de frente da governação internacional. O seu próximo livro, Tracing Code (University of California Press) desenha em anos de histórico e pesquisa em ciências sociais para analisar as origens de dados do capitalismo comercial e de vigilância. A pesquisa premiada de Sarah é apresentada em importantes revistas acadêmicas e plataformas de mídia proeminentes, incluindo The Washington Post, The Atlantic, The Financial Times, Nature e The Wall Street Journal. Assessora regularmente membros do Congresso, da casa branca, da Comissão Europeia, do governo do Reino Unido, do Consumer Financial Protection Board e de outras agências reguladoras dos EUA e internacionais e da cidade de Nova Iorque, e testemunhou perante o Congresso sobre questões como inteligência artificial, concorrência e privacidade de dados. Concluiu recentemente um mandato como consultora Sénior em IA na Federal Trade Commission, onde aconselhou a Agência sobre o papel da inteligência artificial na formação da economia, trabalhando em questões de concorrência e Defesa do consumidor. Atualmente, ela atua no grupo de trabalho AI Futures da OCDE.

 

Leave a Reply